mittlerer Informationsgehalt

mittlerer Informationsgehalt
informacijos entropija statusas T sritis fizika atitikmenys: angl. entropy of information source vok. Informationsentropie, f; mittlerer Informationsgehalt, m rus. информационная энтропия, f; энтропия информации, f pranc. entropie informationnelle, f; néguentropie, f

Fizikos terminų žodynas : lietuvių, anglų, prancūzų, vokiečių ir rusų kalbomis. – Vilnius : Mokslo ir enciklopedijų leidybos institutas. . 2007.

Поможем написать реферат

Look at other dictionaries:

  • Informationsgehalt — Der Begriff der Information, wie er in der Informationstheorie nach Shannon[1] verwendet wird, ist streng von dem gewöhnlichen Gebrauch dieses Begriffes zu unterscheiden. Insbesondere darf darin die Information nicht mit dem Begriff der Bedeutung …   Deutsch Wikipedia

  • Überraschungswert — Der Begriff der Information, wie er in der Informationstheorie nach Shannon[1] verwendet wird, ist streng von dem gewöhnlichen Gebrauch dieses Begriffes zu unterscheiden. Insbesondere darf darin die Information nicht mit dem Begriff der Bedeutung …   Deutsch Wikipedia

  • Arithmetische Codierung — Das arithmetische Kodieren wird unter anderem zur verlustfreien Datenkompression eingesetzt und ist eine Form der Entropiekodierung. Dieser Artikel beschreibt nur, wie man mit einem gegebenen Satz von Zeichen Wahrscheinlichkeits Paaren einzelne… …   Deutsch Wikipedia

  • Arithmetische Kodierung — Das arithmetische Kodieren wird unter anderem zur verlustfreien Datenkompression eingesetzt und ist eine Form der Entropiekodierung. Dieser Artikel beschreibt nur, wie man mit einem gegebenen Satz von Zeichen Wahrscheinlichkeits Paaren einzelne… …   Deutsch Wikipedia

  • Gegenseitige Information — Transinformation oder gegenseitige Information ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur… …   Deutsch Wikipedia

  • Mutual Information — Transinformation oder gegenseitige Information ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur… …   Deutsch Wikipedia

  • Entropie — Maß der Unordnung; Maß für den Informationsgehalt * * * En|tro|pie 〈f. 19〉 1. 〈Phys.〉 Zustandsgröße der Thermodynamik 2. Maß für die „Unordnung“ in einem abgeschlossenen System 3. 〈Kommunikationstheorie〉 Größe des Nachrichtengehaltes einer nach… …   Universal-Lexikon

  • Arithmetisches Kodieren — Das arithmetische Kodieren wird unter anderem zur verlustfreien Datenkompression eingesetzt und ist eine Form der Entropiekodierung. Dieser Artikel beschreibt nur, wie man mit einem gegebenen Satz von Zeichen Wahrscheinlichkeits Paaren einzelne… …   Deutsch Wikipedia

  • Transinformation — oder gegenseitige Information ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur Synentropie einer… …   Deutsch Wikipedia

  • Fano-Code — Die Shannon Fano Kodierung und Huffman Kodierung sind eine Art der Entropiekodierung. Dieser Artikel beschreibt, wie zu einem gegebenen Satz von Zeichen Wahrscheinlichkeits Paaren die Kodierung erstellt werden kann, welche eine möglichst kleine… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”